1
Từ Mã Truyền thống đến Ứng dụng Trí tuệ Nhân tạo Tạo sinh
AI011Lesson 3
00:00

Từ Mã Truyền thống đến Ứng dụng Trí tuệ Nhân tạo Tạo sinh

Bối cảnh phát triển phần mềm đang trải qua một sự thay đổi căn bản. Chúng ta đang chuyển từ lập trình cứng nhắc, dựa trên lệnh sang lập trình linh hoạt, dựa trên ngôn ngữ tự nhiên Trí tuệ nhân tạo tạo sinh tương tác.

1. Phá vỡ Chuỗi Lệnh

Điều gì xảy ra: Các ứng dụng truyền thống phụ thuộc vào các giao diện người dùng đồ họa (GUI) cố định hoặc các bộ lệnh cụ thể, phụ thuộc vào ngôn ngữ. Nếu người dùng thay đổi đầu vào so với mong đợi, hệ thống sẽ thất bại.

Tại sao điều này quan trọng: Các ứng dụng trí tuệ nhân tạo tạo sinh mang lại sự linh hoạt chưa từng có. Chúng cho phép người dùng tương tác bằng ngôn ngữ tự nhiên để đạt được các mục tiêu phức tạp, thích nghi với ý định chứ không chỉ đơn thuần là cú pháp.

2. Nguyên lý Không xác định

Điều gì xảy ra: Trong mã truyền thống, $1 + 1$ luôn bằng $2$. Nó là xác định. Mô hình Ngôn ngữ lớn (LLMs), ngược lại, hoạt động dựa trên xác suất.

Hoạt động như thế nào: Chúng có thể tạo ra kết quả khác nhau cho cùng một lời nhắc chính xác. Sự đa dạng này được quản lý thông qua các tham số cụ thể, nổi bật nhất là Nhiệt độ.

3. Các khối xây dựng: Token và Nhiệt độ

  • Token: Những khối xây dựng số học cơ bản của văn bản mà mô hình sử dụng. Các từ được chia nhỏ thành những đơn vị con từ.
  • Nhiệt độ: Một cài đặt (trong khoảng từ $0.0$ đến $1.0$) kiểm soát tính ngẫu nhiên. Giá trị thấp tạo ra văn bản có thể đoán trước, tập trung; giá trị cao khuyến khích đầu ra sáng tạo, đa dạng.
An ninh Trước tiên
Không bao giờ mã hóa trực tiếp khóa API vào mã nguồn ứng dụng của bạn. Luôn sử dụng biến môi trường (ví dụ, .env tệp tin) để bảo vệ tài nguyên trí tuệ nhân tạo của bạn khỏi truy cập trái phép.
app.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why are Large Language Models (LLMs) described as "non-deterministic"?
Because they can produce different results for the same prompt every time.
Because they always return the exact same output for a given input.
Because they cannot run on standard computer processors.
Because they require quantum computing to function.
Question 2
Which parameter should you decrease if you want the AI output to be more predictable and less creative?
Max Tokens
Top-P
Temperature
Frequency Penalty
Challenge: Building a "Study Buddy"
Apply your knowledge to a real-world scenario.
You are building a "Study Buddy" application that must provide strictly factual definitions for students preparing for exams. The application will connect to an Azure OpenAI resource.
Task 1
Identify the optimal Temperature setting for this specific task.
Solution:
Set Temperature to 0.0 or 0.1. This minimizes randomness and ensures the model provides the most likely, factual, and consistent definitions rather than creative or hallucinated responses.
Task 2
How should you secure the application's sensitive connection data?
Solution:
Move the API_KEY from the main code file into an environment variable or a hidden .env file. Use os.getenv("AZURE_OPENAI_KEY") to retrieve it securely at runtime.